Bienvenid@s a la tercera tarea del curso Statistical Thinking. Esta tarea tiene como objetivo evaluar los contenidos teóricos de la segunda parte del curso, los cuales se enfocan principalmente en el diseño de experimentos, test de hipótesis y regresión lineal. Si aún no han visto las clases, se recomienda visitar los enlaces de las referencias.
La tarea consta de una parte teórica que busca evaluar conceptos vistos en clases. Seguido por una parte práctica con el fin de introducirlos a la programación en R enfocada en el análisis estadístico de datos.
Slides de las clases:
Enlaces a videos de las clases:
En la siguiente sección deberá resolver cada uno de los experimentos computacionales a través de la programación en R. Para esto se le aconseja que cree funciones en R, ya que le facilitará la ejecución de gran parte de lo solicitado.
Para el desarrollo preste mucha atención en los enunciados, ya que se le solicitará la implementación de métodos sin uso de funciones predefinidas. Por otro lado, Las librerías permitidas para desarrollar de la tarea 3 son las siguientes:
# Manipulación de estructuras
library(tidyverse)
## ── Attaching core tidyverse packages ──────────────────────── tidyverse 2.0.0 ──
## ✔ dplyr 1.1.2 ✔ readr 2.1.4
## ✔ forcats 1.0.0 ✔ stringr 1.5.0
## ✔ ggplot2 3.4.3 ✔ tibble 3.2.1
## ✔ lubridate 1.9.2 ✔ tidyr 1.3.0
## ✔ purrr 1.0.2
## ── Conflicts ────────────────────────────────────────── tidyverse_conflicts() ──
## ✖ dplyr::filter() masks stats::filter()
## ✖ dplyr::lag() masks stats::lag()
## ℹ Use the conflicted package (<http://conflicted.r-lib.org/>) to force all conflicts to become errors
library(dplyr)
library(tidyr)
# Para realizar plots
library(scatterplot3d)
library(ggplot2)
library(plotly)
##
## Attaching package: 'plotly'
##
## The following object is masked from 'package:ggplot2':
##
## last_plot
##
## The following object is masked from 'package:stats':
##
## filter
##
## The following object is masked from 'package:graphics':
##
## layout
# Manipulación de varios plots en una imagen.
library(gridExtra)
##
## Attaching package: 'gridExtra'
##
## The following object is masked from 'package:dplyr':
##
## combine
En este apartado se verán conceptos que será necesario revisar para responder a las siguientes preguntas.
En clases se han visto diferentes tipos de test de hipótesis para demostrar una proposición sobre algún parámetro. Uno de los test vistos en clases es el Z-Test, el cual su distribución del test estadístico bajo la hipótesis nula se puede aproximar a una Gaussina. Para la aplicación de este test, resaltan los siguientes puntos:
Para calcular la significancia estadística al igual que con otros métodos esta se debe calcular como:
Luego, dependiendo del objetivo del test tenemos las metodologías one-sample y two-sample. Utilizaremos One-Sample cuando nuestro objetivo es comparar la media de una muestra con la media de la población. El Z-score del One-Sample se define como:
\[Z-score_{One-Sample} = \dfrac{\bar x - \mu}{\dfrac{\sigma}{\sqrt n}}\] Donde \(\bar x\) es la media de la muestra, \(\mu\) es la media de la población, \(\sigma\) es la desviación estándar de la población y \(n\) es el tamaño de la muestra.
Por otro lado, se utiliza Two-Sample cuando queremos comparar la media de dos muestras. El Z-score de Two-Sample se define con la ecuación:
\[Z-score_{Two-Sample} = \dfrac{(\bar x_2 - \bar x_1) - (\mu_1 - \mu_2)}{\dfrac{\sigma_1}{\sqrt n_1}+\dfrac{\sigma_2}{\sqrt n_2}}\] Donde \((\bar x_2 - \bar x_1)\) es la diferencia de las medias de la muestra, \((\mu_1 - \mu_2)\) la diferencia de las medias de la población, \(\sigma_{1,2}\) la desviación estándar de la población y \(n_{1,2}\) el tamaño de las muestras.
En la práctica aparece la necesidad de testear múltiples hipótesis (por ejemplo en biología se pueden utilizar múltiples grupos de control o querer estudiar múltiples resultados de un mismo experimento), de esta forma la primera idea es testear individualmente cada una de las hipótesis, el problema de este enfoque es que la probabilidad de que se obtenga al menos un resultado significante crece rápidamente (con un nivel de significancia \(\alpha = 0.05\) y \(20\) test ya se alcanza una probabilidad de \(64\%\) de tener resultados significantes por azar).
Una forma de corregir los inconvenientes del método anterior es utilizar el método de Bonferroni correction quien propone cambiar \(\alpha\) por \(\alpha/m\) (donde \(m\) es la cantidad de test de hipotesis realizados), esto resulta que las probabilidades de rechazar por error se mantengan bajas. De esta forma los p-valores obtenidos en un test de hipótesis y al utilizar Bonferroni correction, quedan dados por el producto de un \(p-valor_{i}\) y la cantidad de test realizados: \(\text{p-valor}_{i}*m\).
El objetivo de esta pregunta es programar la potencia de un test de hipótesis y observar como se comportan las la hipótesis nula v/s la alternativa para un Z-test. Con el desarrollo de este ejercicio, podrán visualizar las diferentes partes que conforman a un test de hipótesis, identificar que es el p-valor y evidenciar como varia la potencia de un test one-sample y two-sample al variar \(\alpha\).
Para recordar; sabemos que en estadística el concepto de potencia viene dado por:
\[Power = 1 - \beta\]
Donde \(\beta\) es la probabilidad de obtener un error de tipo II. Con esto, la potencia estadística viene a representar la probabilidad de rechazar la hipótesis nula cuando esta es falsa. O sea, la potencia de una prueba es la probabilidad de encontrar un resultado positivo dado que este existe. Una de las formas de representar la potencia de un test es a través del siguiente gráfico:
Del gráfico, es posible visualizar que a medida que aumenta la diferencia en la media de la población, se obtienen mayores valores de potencia estadística.
Recordada que es la potencia de un test de hipótesis, a continuación, usted deberá programar una función que sea capaz de obtener la potencia de un Z-test one-sample y two-sample. Para esto por favor considere los siguientes puntos:
function(n1=NULL, sigma1=0.5,
n2=NULL,sigma2=0.5, mu.Ha=0 ,
mu.True=0, alfa=0.05)
De los argumentos, tendremos que: \(n1\) representa la cantidad de datos para la muestra 1, \(sigma1\) es la desviación estándar de la muestra 1, \(n2\) la cantidad de datos para la muestra 2, \(sigma2\) la desviación estándar para la muestra 2, \(mu.Ha\) el mu del test de hipótesis y \(mu.True\) la media de la población real. Notar que la presencia de una segunda muestra solo es para el caso two-sample, para el caso one-sample el argumento de entrada \(n2\) debería ser nulo.
Codificada la función realice los siguientes experimentos:
\[ n1=16, sigma1=16, mu.Ha=100 , mu.True=Variar, alfa=0.05 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.01 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.1 \]
Se le recomienda que la variación se realice a través de un
for y grafique las curvas dentro de un mismo gráfico para
observar potenciales diferencias entre ellas.
Diseñe un experimento one-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).
Diseñe un experimento Two-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).
Para el diseño de experimentos y/o comprobación de sus métodos puede serles útiles (no hay problema si decide utilizar los mismos ejemplos):
A su vez, en estas fuentes se incluyen las visualizaciones esperadas de las distribuciones normales para cada experimento. Estos experimentos principalmente deben consistir en ver cómo cambia la potencia al cambiar alguno de los parámetros (por ejemplo \(\alpha\)), y se espera que se entregue un comentario acorde.
Respuesta
# Power Function, El esqueleto posee como ejemplo como obtener la potencia de un z-test one-sample.
# Si utiliza este esqueleto deberá comentar la función que cumple cada una de las partes entregadas
power.z.test <- function(n1=NULL, sigma1=0.5,
n2=NULL,sigma2=0.5, mu.Ha=0 ,
mu.True=0, alfa=0.05) {
if(is.null(n2)){
# calculamos valor de Z critico según distribución normal
Z = qnorm(1-alfa)
#Estamos en el caso de one-sample, entonces el denominador es el de la primera ecuación dada en el enunciado
denominador = sigma1/sqrt(n1)
#calculamos la media muestral
X_bar = Z*denominador + mu.Ha
#calculamos el numerador del caso one-sample
numerador = X_bar - mu.True
#calculamos z-score one-sample con lo calculado previamente
Z = numerador/denominador
#finalmente calculamos el power
Power = 1 - pnorm(Z)
# Aquí se calculan los limites inferiores y máximos del gráfico
min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominador)) -
round(min(rnorm(1000, mean=mu.Ha, sd=denominador)))%%10
max_lim = max(rnorm(1000, mean=mu.True, sd=denominador)) +
round(max(rnorm(1000, mean=mu.True, sd=denominador)))%%10
# Aquí se genera un gráfico para comparar mu.Ha y mu.True, se generan funciones de densidad de una distribución normal bajo estas dos hipótesis. Además, se marca la región de rechazo de la hipótesis nula
plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) +
stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominador),
col='red') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
col='blue') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
xlim = c(X_bar,max_lim), geom = "area", fill='red') +
geom_vline(xintercept = X_bar, linetype="dotted", size=1) +
annotate(x=X_bar, y=+Inf,label="alpha", vjust=2, geom="label") +
theme_minimal() +
ggtitle("H0 vs Ha") +
xlab(expression(bar(X))) + ylab("Density")
} else {
# calculamos valor de Z crítico según distribución normal
Z = qnorm(1-alfa)
#Estamos en el caso de two-sample, entonces el denominador es el de la segunda ecuación dada en el enunciado
denominador =(sigma1/sqrt(n1))+(sigma2/sqrt(n2))
X_bar_diff = Z * denominador + mu.Ha
#calculamos el numerador (xbar1 - xbar2) - (mu1 - mu2) del caso two-sample
numerador =X_bar_diff - mu.True
#calculamos z-score two-sample con lo calculado previamente
Z_e = numerador/denominador
#finalmente calculamos el power
Power = 1 - pnorm(Z_e)
# Aquí se calculan los limites inferiores y máximos del gráfico
min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominador)) -
round(min(rnorm(1000, mean=mu.Ha, sd=denominador)))%%10
max_lim = max(rnorm(1000, mean=mu.True, sd=denominador)) +
round(max(rnorm(1000, mean=mu.True, sd=denominador)))%%10
#
#
plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) +
stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominador),
col='red') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
col='blue') +
stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador),
xlim = c(mu.Ha,max_lim), geom = "area", fill='red') +
geom_vline(xintercept = mu.Ha, linetype="dotted", linewidth=1) +
annotate(x=mu.Ha, y=+Inf,label="alpha", vjust=2, geom="label") +
theme_minimal() +
ggtitle("H0 vs Ha") +
xlab(expression(bar(X2) - bar(X1))) + ylab("Density")
}
# Como R no permite retornar dos salidas usamos una lista
# Los resultados se llaman con $plot o $power
return(list(plot=plot,power=Power))
}
# Plot de gráfico de potencia
# Experimentos
n1<-16
sigma1<-16
mu.Ha<-100
alfa<-c(0.05,0.01,0.1)
mu.True <- seq(90,150,by=1)
results<-data.frame()
for(i in alfa){
for(j in mu.True){
result <- power.z.test(n1 = n1, sigma1 = sigma1,
n2 = NULL, sigma2 = NULL, mu.Ha = mu.Ha,
mu.True = j, alfa = i)
results <- rbind(results, data.frame(mu_True = j, alfa = i, power = result$power))
}
}
## Warning: Using `size` aesthetic for lines was deprecated in ggplot2 3.4.0.
## ℹ Please use `linewidth` instead.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
ggplot(results, aes(x = mu_True, y = power, color = factor(alfa))) +
geom_line() + geom_point()+
labs(title = "Power en distintos experimentos",
x = expression(mu.True),
y = "Power",
color = expression(alpha))
n1<-16
sigma1<-16
mu.Ha<-100
alfa<-c(0.05,0.01,0.1)
mu.True <- seq(90,150,by=1)
results2<-data.frame()
for(i in alfa){
for(j in mu.True){
result <- power.z.test(n1 = n1, sigma1 = sigma1,
n2 = n1, sigma2 = 25, mu.Ha = mu.Ha,
mu.True = j, alfa = i)
results2 <- rbind(results2, data.frame(mu_True = j, alfa = i, power = result$power))
}
}
ggplot(results2, aes(x = mu_True, y = power, color = factor(alfa))) +
geom_line() + geom_point()+
labs(title = "Power en distintos experimentos con two samples",
x = expression(mu.True),
y = "Power",
color = expression(alpha))
Al observar ambos gráficos vemos que al aumentar el valor de mu.True, el power también aumenta. Es decir, a medida que mu.True se aleja de la media hipotética, la probabilidad de rechazar la hipótesis nula aumenta. También se tiene que al aumentar el alfa, la probabilidad de rechazar la hipótesis nula aumenta y esto se ve reflejado en las curvas, ya que las que alcanzan valores más altos más rápidamente son con alfa=0.1 (entonces, con alfas altos ocurre este comportamiento).
Esta pregunta tiene como objetivo comprender como funciona un test de hipótesis y como deberíamos abordar la realización de múltiples test de hipótesis con datos reales.
La pregunta deberá ser desarrollada utilizando el dataset
marketing_campaign.csv. Con esto, deberá programar un
Z-test, con el cual estudiará a través de experimentos el
Income de personas con los grados académicos
Graduation, Master y PhD. Para
realizar esto considere la elaboración de los siguientes puntos de forma
secuencial:
Graduation, Master y PhD por
separado.
Por ejemplo para el caso de Graduation pueden generar estructuras de la siguiente forma:
| ID | Graduation |
|---|---|
| 5524 | 58138 |
| 2174 | 46344 |
| 4141 | 71613 |
| 6182 | 26646 |
| 965 | 55635 |
| … | … |
Donde los valores en la fila de Graduation representan los sueldos de las diferentes personas que conforman el dataset. Un punto importante a considerar es que los datos para los diferentes grados académicos poseen diferentes numero de datos (no se asusten por esto).
Programar el método Z-test con la metodología one sample y two sample, obteniendo los p-valores a través de las alternativas one-sided y two-sided. Para el caso de one-sided, cree una función capaz de obtener la cola menor y mayor de la gaussiana.
El calculo de las diferentes alternativas para calcular los p-valores deberá ser un argumento de su función, donde señalando ‘menor’,‘mayor’ (para los casos one-sided) y ‘two-sided’ deberá obtener el valor pertinente para cada caso.
Genere una función que permita realizar solo múltiples test del
tipo two-sample y aplique bonferroni correction a los p-valores
obtenidos. Notar que los múltiples test deberá realizar la comparación
entre todos los elementos de entrada, por ejemplo si deseamos comparar
los ingresos de Graduation, Master y
PhD, se deberían comparar los ingresos de
Graduation v/s Master, Graduation
v/s PhD y Master y PhD.
Codificada las funciones, realice los siguientes experimentos con su función de test de hipótesis:
Compruebe si la media de los ingresos para la variable
Graduation es similar a 52000. Señale formalmente este
experimento y obtenga los p-valores para las alternativas one-sided y
two-sided.
Compruebe si la diferencia entre los ingresos de las personas con
el grado académico Graduation es cercana a cero en relación
a la recibida por los Master y PhD. Para este
punto utilice la función que le permite realizar múltiples test del tipo
two-sample.
Para estos experimentos usted deberá escoger un \(\alpha\), y con éste comentar respecto a los p-valores obtenidos.
Para los diferentes experimentos considere que la desviación estandar
de la población para los diferentes income son los
siguientes:
\[\sigma_{Graduation} = 28180\] \[\sigma_{Master} = 20160\] \[\sigma_{PhD} = 20615\]
Respuesta:
df = read.csv('marketing_campaign.csv', sep='\t')
# Vectores por grado académico
graduation.df <- subset(df, Education == "Graduation" & !is.na(Income), select = c(ID, Income))
colnames(graduation.df)[colnames(graduation.df) == "Income"] <- "Graduation"
master.df <- subset(df, Education == "Master" & !is.na(Income), select = c(ID, Income))
colnames(master.df)[colnames(master.df) == "Income"] <- "Master"
phd.df <- subset(df, Education == "PhD" & !is.na(Income), select = c(ID, Income))
colnames(phd.df)[colnames(phd.df) == "Income"] <- "PhD"
# Implementación de Z-test one-sided y two-sided
z_test <- function(data1=NULL, sigma1=0.5, data2=NULL, sigma2=0.5,
mu.Ha=0, test.type=c('one-sided', 'two-sided'), verbose=T){
if(length(test.type) >= 2) {
print("Por favor escoge un tipo de Test: ´one-sided´ o ´two-sided´ ")
return()
} else if(length(test.type) == 1 && !(test.type %in% c('menor', 'mayor', 'two-sided'))) {
print("Por favor escoge un tipo de Test: ´menor´, ´mayor´ o ´two-sided´")
return()
}
if(is.null(data2)) {
# One-sample Z-test
n1 <- length(data1)
mean1 <- mean(data1)
Z_score <- (mean1 - mu.Ha) / (sigma1 / sqrt(n1))
# P-value
if(test.type == 'menor') {p_value <- pnorm(Z_score)}
else if(test.type == 'mayor') {p_value <- 1 - pnorm(Z_score)}
else if(test.type == 'two-sided') {p_value <- 2 * (1 - pnorm(abs(Z_score)))}
# Texto de Salida
if(verbose){cat("\tOne-sample Z-Test (", test.type, "):\n\nData analizada: ",
deparse(substitute(data1)), "\nZ=", Z_score,
" | P-value=", p_value, "\n\n", sep="")}
return(p_value)
} else {
# Hypothesis test
n1 <- length(data1)
n2 <- length(data2)
mean1 <- mean(data1)
mean2 <- mean(data2)
Z_score <- (mean1 - mean2) / sqrt((sigma1^2 / n1) + (sigma2^2 / n2))
# p-value
if(test.type=='menor') {p_value = pnorm(Z_score)}
else if(test.type=='mayor') {p_value = 1 - pnorm(Z_score)}
else if(test.type=='two-sided') {p_value = 2 * pnorm(Z_score)}
# Texto de Salida
if(verbose){cat("\tTwo-sample Z-Test (", test.type, "):\n\nData analizada: ",
deparse(substitute(data1))," y ",
deparse(substitute(data2)), "\nZ=",
Z_score, " | P-value=", p_value, "\n\n", sep="")}
return(p_value)
}
}
# Implementación de múltiples test aplicando Bonferroni Correction
z_test.multiple_testing <- function(data_list, sigma_list, verbose=T) {
p_values <- c()
comparisons <- c()
# Comparar los pares de grupos
for (i in 1:(length(data_list) - 1)) {
for (j in (i + 1):length(data_list)) {
data1 <- data_list[[i]]
data2 <- data_list[[j]]
sigma1 <- sigma_list[i]
sigma2 <- sigma_list[j]
# Realizar el Z-test de dos muestras
p_value <- z_test(data1, sigma1, data2, sigma2, test.type="two-sided", verbose=verbose)
p_values <- c(p_values, p_value)
comparisons <- c(comparisons, paste(names(data_list)[i], "vs", names(data_list)[j]))
}
}
# Aplicar corrección de Bonferroni
adjusted_p_values <- p.adjust(p_values, method="bonferroni")
return(data.frame(Comparaciones=comparisons, P_value=p_values, P_value_ajustado=adjusted_p_values))
}
graduation.sigma <- 28180
master.sigma <- 20160
phd.sigma <- 20615
Para verificar la similitud de los ingresos para
Graduation es similar a 52000 planteamos las hipótesis de
la siguiente manera:
Graduation es igual a 52000.\[ H_0 : \mu = 52000 \]
Caso one-sided menor:
Hipótesis alternativa \(H_a\):
La media de ingresos para Graduation es menor que
52000.
\[ H_a : \mu < 52000 \]
Caso one-sided mayor:
Hipótesis alternativa \(H_a\):
La media de ingresos para Graduation es mayor que
52000.
\[ H_a : \mu > 52000 \]
Caso two-sided:
Graduation es diferente de
52000.\[ H_0 : \mu \neq 52000 \]
p_value_menor <- z_test(data1=graduation.df$Graduation, sigma1=graduation.sigma, mu.Ha=52000, test.type='menor')
## One-sample Z-Test (menor):
##
## Data analizada: graduation.df$Graduation
## Z=0.8539824 | P-value=0.8034426
p_value_mayor <- z_test(data1=graduation.df$Graduation, sigma1=graduation.sigma, mu.Ha=52000, test.type='mayor')
## One-sample Z-Test (mayor):
##
## Data analizada: graduation.df$Graduation
## Z=0.8539824 | P-value=0.1965574
p_value_two_sided <- z_test(data1=graduation.df$Graduation, sigma1=graduation.sigma, mu.Ha=52000, test.type='two-sided')
## One-sample Z-Test (two-sided):
##
## Data analizada: graduation.df$Graduation
## Z=0.8539824 | P-value=0.3931147
cat("\nResultados del experimento:\n")
##
## Resultados del experimento:
cat("One-sided p-value (menor):", p_value_menor, "\n")
## One-sided p-value (menor): 0.8034426
cat("One-sided p-value (mayor):", p_value_mayor, "\n")
## One-sided p-value (mayor): 0.1965574
cat("Two-sided p-value:", p_value_two_sided, "\n")
## Two-sided p-value: 0.3931147
Considerando un nivel de significancia del 5%, es decir, \(\alpha = 0.05\), los resultados obtenidos
muestran que no es posible rechazar la hipótesis nula en ninguno de los
3 casos, dado que los 3 valores son mayores a este valor, lo que
significa que no hay evidencia estadísticamente significativa para
concluir que la media de los ingresos para individuos del grado
académico Graduation sea diferente de 52000, lo que
finalmente valida la hipótesis nula inicialmente planteada, es decir,
estos ingresos deben ser similares a 52000.
\[ H_0 : \mu_1 = \mu_2 \]
\[ H_a : \mu_1 \neq \mu_2 \]
data_list <- list(Graduation=graduation.df$Graduation, Master=master.df$Master, PhD=phd.df$PhD)
sigma_list <- c(graduation.sigma, master.sigma, phd.sigma)
results <- z_test.multiple_testing(data_list, sigma_list)
## Two-sample Z-Test (two-sided):
##
## Data analizada: data1 y data2
## Z=-0.1459422 | P-value=0.883967
##
## Two-sample Z-Test (two-sided):
##
## Data analizada: data1 y data2
## Z=-2.711808 | P-value=0.006691735
##
## Two-sample Z-Test (two-sided):
##
## Data analizada: data1 y data2
## Z=-2.284084 | P-value=0.02236659
print("Resultados de las comparaciones con corrección de Bonferroni:")
## [1] "Resultados de las comparaciones con corrección de Bonferroni:"
print.data.frame(results)
## Comparaciones P_value P_value_ajustado
## 1 Graduation vs Master 0.883967005 1.00000000
## 2 Graduation vs PhD 0.006691735 0.02007521
## 3 Master vs PhD 0.022366590 0.06709977
Considerando el mismo nivel de significancia anterior, en el caso en
que se compara Graduation con Master se tiene
un p-valor ajustado mucho mayor a 0.05, indicando que no existe una
diferencia significativa entre los ingresos de individuos en estos
grados académicos, sugiriendo que la diferencia entre sus ingresos es
cercana a 0. Adicionalmente, el caso en que se compara
Graduation con PhD su p-valor ajustado es
ligeramente mayor a 0.05, concluyendo lo mismo que se dijo
anteriormente.
En contraste, el caso restante si posee un p-valor ajustado menor al
umbral, indicando que PhD posee ingresos significativamente
distintos a Graduation.
El objetivo de este problema es estudiar como realizar múltiples test
de hipótesis simultáneamente. Para esto en primer lugar se estudiara el
método “intuitivo”, donde veremos sus limitantes y se comparará con el
método llamado Bonferroni correction, posteriormente se
realizará un estudio practico con el dataset
ratones.csv.
Un investigador se ha colocado en contacto con ustedes señalándoles que realiza diariamente test de hipótesis entre las muestras que toma día a día en su laboratorio. Con esto, al investigador le urge saber si realizar multiples test de hipótesis sin una corrección podría afectar la toma de decisiones. Para comprobar esto, les solicita comprobar matemáticamente como se comporta la probabilidad de obtener al menos un resultado significativo al azar de sus experimentos diarios. Para esto, les señala que la probabilidad de obtener un experimento por azar puede ser simulado a través de los casos exitosos de una binomial (valores mayores a cero), donde el número de observaciones son la cantidad de experimentos (\(m\)) y la probabilidad queda dada por \(\alpha\) del test.
A continuación, se entregan unas indicaciones mas especificas para desarrollar la pregunta:
data <- read.csv("ratones.csv", sep= ";", stringsAsFactors=T)
data[(as.numeric(as.character(sub("," , ".", data$p.value))) < 0.05) & (as.numeric(as.character(sub("," , ".", data$p.value.Bonferroni))) > 0.05), ]
Respuesta Aquí:
probEmpirica <- function(alpha, m){
n <- 10000 # Cantidad de veces que se va a repetir el experimento para estimar la probabilidad
res <- rbinom(n, m, alpha) #Resultados de los experimentos
return(length(res[res > 0]) / n)
}
m <- 100
prob_exp <- 0.05
muestras <- c(1:m)
probs <- data.frame(muestra=integer(), prob=double(), tipo=integer())
# Sin corrección
for(muestra in muestras) {
res <- 1 - (1 - prob_exp)^muestra
valor <- probEmpirica(prob_exp, muestra)
z_teorico <- data.frame(muestra=muestra, prob=res, tipo=factor("Teórico"))
z_empirico <- data.frame(muestra=muestra, prob=valor, tipo=factor("Empírico"))
probs <- rbind(probs, z_teorico)
probs <- rbind(probs, z_empirico)
}
ggplot(probs, aes(muestra, prob)) +
geom_line(aes(colour=tipo)) +
ylim(0, 1) +
xlim(0, m) +
xlab("m") +
ylab("Probabilidad") +
ggtitle("Probabilidad teórica y empírica para α = 0.05")
Es posible evidenciar que ambas curvas son muy similares en todo momento, además de que la probabilidad tiende a 1 a medida que se aumenta el valor de \(m\). Por último, si se cambia manualmente el valor de \(\alpha\) se puede ver que este tiene un impacto en el comportamiento, en particular, la curva tiende más rápido a 1 si este valor aumenta y viceversa.
Con esto se concluye que este método no es útil para realizar múltiples tests de hipótesis, dado que con suficientes pruebas es posible garantizar la obtención de resultados significativos, es por esto que se deben realizar correcciones con el fin de evitar la acumulación de errores tipo I.
probs2 <- data.frame(muestra=integer(), prob=double(), tipo=integer())
# Aplicando corrección de Borrefoni
for(muestra in muestras) {
res <- 1 - (1 - prob_exp / muestra)^muestra
valor <- probEmpirica(prob_exp / muestra, muestra)
z_teorico <- data.frame(muestra=muestra, prob=res, tipo=factor("Teórico Corregido"))
z_empirico <- data.frame(muestra=muestra, prob=valor, tipo=factor("Empírico Corregido"))
probs2 <- rbind(probs2, z_teorico)
probs2 <- rbind(probs2, z_empirico)
}
ggplot(probs2, aes(muestra, prob)) +
geom_line(aes(colour=tipo)) +
geom_hline(aes(yintercept=prob_exp, linetype=as.character(prob_exp)), colour="green") +
scale_linetype_manual(name="α", values=2, guide=guide_legend(override.aes=list(color="green"))) +
ylim(0, 0.25) +
xlim(0, m) +
xlab("m") +
ylab("Probabilidad") +
ggtitle("Probabilidad teórica y empírica para α = 0.05")
Aplicando la corrección de Bonferroni es posible evidenciar que los resultados mejoran drásticamente, considerando que la probabilidad es prácticamente constante alrededor del valor del nivel de significancia (0.05).
Pese a esto, cuando \(m\) es muy grande, la corrección de Bonferroni puede hacer que el nivel de significancia ajustado sea extremadamente bajo, aumentando el riesgo de sufrir errores de tipo II.
Por último, para la mayoría de los valores que originalmente hubieran sido aceptados ahora se rechazan, esto genera un aumento de los falsos negativos debido a que la probabilidad de los errores de tipo II tiene una relación inversa con los de tipo I.
El objetivo de la siguiente pregunta es aplicar los conceptos de regresión lineal vistos en clases para implementar desde cero un función capaz de realizar una regresión simple y múltiple.
Para este problema, ustedes deberán estudiar el comportamiento de los
clientes de un holding de salud. Para esto, se les hace entrega del
dataset insurance.csv para que estudien la creación de un
modelo lineal con sus datos. Antes de comenzar a trabajar, se señalan
las diferentes variables que componen al dataset:
Es importante que considere que cada una de las filas representa un cliente distinto para el holding.
Dentro del estudio, el holding de salud le solicita estudiar los
comportamientos de los clientes fumadores y no fumadores, por lo que se
le aconseja separar el dataframe original en fumadores y no fumadores.
En el estudio, realicen un modelo lineal que tiene como variable de
respuesta a charges y los datos que mejor se correlacionan
para los clientes fumadores y no fumadores. Para esto, deberán realizar
las siguientes actividades:
charges.lm(), ya que esto le servirá para observar
si la regresión lineal es significativa.Nota: No esta permitido utilizar comandos que obtengan los valores solicitados directamente a menos que se le permita en la pregunta.
insurance_df <- read.csv("insurance.csv", stringsAsFactors = T)
smokers <- insurance_df[insurance_df$smoker == "yes",]
smokers
(correlacion = cor(smokers[c(1,3,4,7)]))
## age bmi children charges
## age 1.00000000 0.05967388 0.08118329 0.36822444
## bmi 0.05967388 1.00000000 -0.01261916 0.80648061
## children 0.08118329 -0.01261916 1.00000000 0.03594501
## charges 0.36822444 0.80648061 0.03594501 1.00000000
Aquí vemos que la que tiene mayor correlación con charges es bmi.
no_smokers <- insurance_df[insurance_df$smoker == "no",]
(correlacion2 = cor(no_smokers[c(1,3,4,7)]))
## age bmi children charges
## age 1.00000000 0.12263798 0.03339533 0.62794678
## bmi 0.12263798 1.00000000 0.01920841 0.08403654
## children 0.03339533 0.01920841 1.00000000 0.13892870
## charges 0.62794678 0.08403654 0.13892870 1.00000000
En este caso, la que tiene mayor correlación es age.
lm_reg <- function(X, Y){
mean_x <- mean(X)
mean_y <- mean(Y)
beta_1 <- (sum((X - mean_x) * (Y - mean_y))) / sum((X - mean_x)^2)
beta_0 <- mean_y - (beta_1 * mean_x)
y_tongo <- beta_0 + (beta_1 * X)
SSR <- sum((Y - y_tongo)^2)
SST <- sum((Y - mean_y)^2)
R2 <- 1- (SSR/SST)
n <- length(Y)
R2_aj <- 1 - ((1 - R2) * (n - 1) / (n - 2))
print("La ecuación del modelo de regresión lineal simple es:")
cat("y =", beta_0, "+", beta_1, "* x\n")
print("Resultados de la regresión:")
cat("R^2 =", R2, "\n")
cat("R^2 ajustado =", R2_aj, "\n")
return (c(beta_0,beta_1))
}
regSmokers <- lm_reg(smokers$bmi, smokers$charges)
## [1] "La ecuación del modelo de regresión lineal simple es:"
## y = -13186.58 + 1473.106 * x
## [1] "Resultados de la regresión:"
## R^2 = 0.650411
## R^2 ajustado = 0.6491257
regNoSmokers <- lm_reg(no_smokers$age, no_smokers$charges)
## [1] "La ecuación del modelo de regresión lineal simple es:"
## y = -2091.421 + 267.2489 * x
## [1] "Resultados de la regresión:"
## R^2 = 0.3943172
## R^2 ajustado = 0.3937468
library(ggplot2)
ggplot(smokers, aes(x = bmi, y = charges)) +
geom_point(color = "purple", alpha = 0.6) + # Scatterplot de los datos
geom_abline(intercept = regSmokers[1], slope = regSmokers[2], color = "blue") + labs(title = "Regresión Lineal de Charges vs BMI para Smoker",
x = "BMI",
y = "Charges")
ggplot(no_smokers, aes(x = age, y = charges)) +
geom_point(color = "purple", alpha = 0.6) + # Scatterplot de los datos
geom_abline(intercept = regNoSmokers[1], slope = regNoSmokers[2], color = "blue") + labs(title = "Regresión Lineal de Charges vs Age para No Smoker",
x = "age",
y = "Charges")
lm_reg_multi <- function(X1,X2,Y){
X <- as.matrix(cbind(1, X1, X2))
#X^T * X
XtX <- t(X) %*% X
#(X^T * X)^-1
XtX_inv <- solve(XtX)
#X^T * y
XtY <- t(X) %*% Y
#beta = (X^T * X)^-1 * X^T * y
beta <- XtX_inv %*% XtY
y_tongo <- X %*% beta
SST <- sum((Y - mean(Y))^2)
SSE <- sum((Y - y_tongo)^2)
R2 <- 1 - (SSE / SST)
n <- length(Y)
p <- ncol(X) - 1
R2_aj <- 1 - (1 - R2) * (n - 1) / (n - p - 1)
print("La ecuación del modelo de regresión lineal multivariable es:")
cat("y =", beta[1], "+", beta[2],"*x1 +",beta[3],"*x2\n")
print("Resultados de la regresión:")
cat("R^2 =", R2, "\n")
cat("R^2 ajustado =", R2_aj, "\n")
return(beta)
}
multiRegSmokers <- lm_reg_multi(smokers$bmi, smokers$age, smokers$charges)
## [1] "La ecuación del modelo de regresión lineal multivariable es:"
## y = -22367.45 + 1438.091 *x1 + 266.2922 *x2
## [1] "Resultados de la regresión:"
## R^2 = 0.7532403
## R^2 ajustado = 0.7514192
multiRegNoSmokers <- lm_reg_multi(no_smokers$age,no_smokers$children, no_smokers$charges)
## [1] "La ecuación del modelo de regresión lineal multivariable es:"
## y = -2658.799 + 265.5705 *x1 + 581.0559 *x2
## [1] "Resultados de la regresión:"
## R^2 = 0.4082468
## R^2 ajustado = 0.4071314
#usando lm()
ult <- lm(charges ~ bmi + age, data = smokers)
summary(ult)
##
## Call:
## lm(formula = charges ~ bmi + age, data = smokers)
##
## Residuals:
## Min 1Q Median 3Q Max
## -14604.4 -4315.1 -240.5 3638.0 29316.7
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -22367.45 1931.86 -11.58 <2e-16 ***
## bmi 1438.09 55.22 26.05 <2e-16 ***
## age 266.29 25.06 10.63 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 5754 on 271 degrees of freedom
## Multiple R-squared: 0.7532, Adjusted R-squared: 0.7514
## F-statistic: 413.6 on 2 and 271 DF, p-value: < 2.2e-16
#usando lm()
ult2 <- lm(charges ~ bmi, data = smokers)
summary(ult2)
##
## Call:
## lm(formula = charges ~ bmi, data = smokers)
##
## Residuals:
## Min 1Q Median 3Q Max
## -19768.0 -4487.9 34.4 3263.9 31055.9
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -13186.58 2052.88 -6.423 5.93e-10 ***
## bmi 1473.11 65.48 22.496 < 2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 6837 on 272 degrees of freedom
## Multiple R-squared: 0.6504, Adjusted R-squared: 0.6491
## F-statistic: 506.1 on 1 and 272 DF, p-value: < 2.2e-16
Respuesta:
Efectivamente se tiene que el modelo multivariable tiene mejores resultados, ya que tanto R2 como R2 ajustado tienen valores más cercanos a 1 en ambos casos (fumadores y no fumadores).
Con respecto a si es recomendable la utilización de los dos modelos creados, la respuesta es sí. Esto, ya que al comparar con los resultados obtenidos con el comando lm y summary, vemos que los valores de R2 y R2 ajustado son muy similares, lo que indica que la precisión de los modelos creados es muy buena. Además, los valores de p-value son bastante bajos, lo que indica que las variables predictoras (bmi y bmi con ages para el caso de smokers) son relevantes para charges.
#para no smokers
ult <- lm(charges ~ age, data = no_smokers)
summary(ult)
##
## Call:
## lm(formula = charges ~ age, data = no_smokers)
##
## Residuals:
## Min 1Q Median 3Q Max
## -3182.9 -1948.6 -1363.8 -665.2 24470.7
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -2091.42 425.10 -4.92 1e-06 ***
## age 267.25 10.16 26.29 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 4667 on 1062 degrees of freedom
## Multiple R-squared: 0.3943, Adjusted R-squared: 0.3937
## F-statistic: 691.4 on 1 and 1062 DF, p-value: < 2.2e-16
#para no smokers
ult <- lm(charges ~ age+children, data = no_smokers)
summary(ult)
##
## Call:
## lm(formula = charges ~ age + children, data = no_smokers)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2548.4 -1894.6 -1364.5 -680.8 24490.6
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -2658.80 435.44 -6.106 1.43e-09 ***
## age 265.57 10.06 26.408 < 2e-16 ***
## children 581.06 116.27 4.998 6.79e-07 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 4615 on 1061 degrees of freedom
## Multiple R-squared: 0.4082, Adjusted R-squared: 0.4071
## F-statistic: 366 on 2 and 1061 DF, p-value: < 2.2e-16
Se concluye lo mismo con el caso de no_smokers.
A work by CC6104